Inteligência Artificial — Texto 39 – A luta em torno da IA .  Por Christopher Newfield

Seleção e tradução de Júlio Marques Mota

17 min  de leitura

Texto 39 – A luta em torno da IA

 Por Christopher Newfield

Publicado por  em 4 de março de 2025 (original aqui)

 

 

Eu adoro tecnologia — aviões, telefones inteligentes, veículos elétricos, vacinas, computadores, a internet — quando ela expande as capacidades humanas. Odeio a tecnologia como força imposta, diante da qual precisamos de nos preparar laboriosamente para enfrentá-la, apenas para proteger uma autonomia já fragilizada.

A implementação da “Inteligência Artificial” é uma das tecnologias mais impostas que enfrentamos nos últimos anos. A Fundação Independent Social Research (ISRF) está a organizar um seminário este mês chamado Estruturas Sociais e Culturais para a ‘Inteligência Artificial, o que representa um bom prazo para eu organizar as minhas ideias sobre como é chegámos até aqui.

Figura 1. Fonte: Google ImageFX

 

(1)

A inteligência artificial é um conceito antigo cuja onda atual é marcada por uma nova literalidade sobre como os modelos fundacionais realmente pensam e sobre se são realmente tão inteligentes quanto os humanos. A afirmação de que a aprendizagem automática (a aprendizagem de máquina) produz inteligência tornou-se inevitável desde o lançamento público do ChatGPT em 30 de novembro de 2022.

Mas a ideia  de inteligência remonta a muito antes disso. Em outubro de 2015, por exemplo, o programa AlphaGo da DeepMind venceu um jogador profissional de Go. No seu anúncio de janeiro de 2016, o cofundador da DeepMind, Demis Hassabis, escreveu: “O nosso objetivo é vencer os melhores jogadores humanos, não apenas imitá-los. Para isso, o AlphaGo aprendeu a descobrir novas estratégias por conta própria, ao jogar milhares de partidas entre as suas redes neuronais e ajustando as conexões por meio de um processo de tentativa e erro conhecido como aprendizagem por reforço.” Hassabis descreve o AlphaGo como um agente inteligente que aprende a melhorar o seu próprio raciocínio. (O artigo correspondente na revista Nature é mais comedido.)

Esta ideia de inteligência genuína foi reforçada pela derrota do AlphaGo, em março de 2016, dada por aquele que era considerado por muitos o melhor jogador de Go do mundo, Lee Se-Dol, por quatro partidas a uma. Lee posteriormente aposentou-se, dizendo: “Mesmo que eu me torne o número um, existe uma entidade que não pode ser derrotada.”

Um impulso ainda mais importante para a inteligência artificial veio do mundo dos negócios. Duas semanas antes do anúncio do AlphaGo por Hassabis, o fundador e presidente executivo do Fórum Económico Mundial (Davos), Klaus Schwab, proclamou a Quarta Revolução Industrial com base em sistemas ‘ciberfísicos’ que iriam além da automação e alcançariam uma inteligência verdadeira.

Schwab baseou-se em afirmações que remontam aos anos 1990, segundo as quais a economia digital teria criado uma nova revolução (pós-)industrial, e em trabalhos mais recentes como The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies (2014), de Erik Brynjolfsson e Andrew McAfee. Schwab está ciente dos problemas sociais e culturais gerados pela revolução impulsionada pela tecnologia, mas insiste que as pessoas e os seus governos devem-se simplesmente adaptar. “A Quarta Revolução Industrial, por fim, mudará não apenas o que fazemos, mas também quem somos.”

Essas profecias empresariais da metade da década de 2010 desencadearam uma enxurrada constante de previsões transformadoras: 15,7 milhões de milhões de dólares em novo valor baseado em IA para a economia global até 2030; “crescimento anual de 30% do produto mundial bruto (PMB), a verificar-se até  2100”; ou “entre 2,6 milhões de milhões e 4,4 milhões de milhões de dólares em benefícios económicos anuais quando aplicados em diversos setores”. Por outras palavras, a IA generativa criaria uma nova economia do tamanho da do Reino Unido.

Centros académicos de investigação, grupos de reflexão e governos concordaram que uma revolução estava já em curso. Em 2017, a Câmara dos Lordes perguntou ao povo britânico se estavam “Prontos, Dispostos e Capazes?”. A única dúvida era o tamanho da revolução e a rapidez com que se embarcaria nela. Essa nova revolução, com as suas riquezas incalculáveis, tinha a inteligência artificial como núcleo, e a melhor forma de deixar escapar era duvidar, levantar problemas, fazer perguntas ou hesitar.

As estimativas de “potencial económico total” são ficções especulativas. Mas pareciam suficientemente próximas do topo da pilha do conhecimento para serem levadas a sério. Enquanto isso, nós que estamos na base — escritores de ficção real ou professores de escrita — enfrentávamos grandes dificuldades para fazer com que a nossa opinião fosse ouvida. A ajuda chega no final desta história, mas vem de um economista.

 

(2)

A minha preocupação fundamental com a IA sempre foi que, embora estivesse a melhorar a aprendizagem de máquina, também estava a piorar a aprendizagem humana. E não estou sozinho nisso. Professores, que têm a responsabilidade de ajudar os alunos a pensar, estavam cada vez mais furiosos com o que a IA estava a fazer ao cérebro dos estudantes.

Uma semana antes do lançamento do ChatGPT, Jane Rosenzweig, diretora do Centro de Escrita da Harvard College, fez um ponto que deveria ser óbvio: “Escrever — na sala de aula, no seu diário, num memorando no trabalho — é uma forma de dar ordem ao nosso pensamento ou de desmontar essa ordem ao desafiarmos as nossas próprias ideias. Se uma máquina está a fazer a escrita, então somos nós, estudantes, que deixamos de estar a pensar“.

Esta mensagem tem sido frequentemente reiterada, mas com pouco efeito. Uma sondagem internacional recente do Conselho de Educação Digital revelou que, embora dois terços dos professores entrevistados vejam a IA como uma oportunidade positiva para a educação, apenas 5% acreditam que as suas instituições possuem “diretrizes abrangentes” para o uso da IA no ensino. 82% dos docentes estão preocupados “com o facto de os alunos se tornarem excessivamente dependentes da IA”. A principal competência e “que os educadores precisam na era da IA e do digital” é “facilitar o pensamento crítico e a aprendizagem dos alunos”. Ao reunir estes resultados, sugere-se que a maioria dos educadores compartilha da preocupação de Rosenzweig de que a IA permite aos alunos contornar o pensamento crítico, como no caso de “Se eu não tiver o robô [Chat], não tenho um texto. Eles também estão convencidos de que as universidades não estão a enfrentar essa realidade. Atualmente, é possível ler alertas semanais em grandes jornais sobre a ligação entre a queda na capacidade de pensar e a utilização de ferramentas de IA.

Aprendi ao longo de décadas de ensino na Universidade sobre a escrita que os estudantes geralmente conseguem encontrar um tema geral que lhes interessa. Mas eles têm dificuldade com a pergunta seguinte: o que você quer dizer sobre esse tema? Qual é a sua tese, qual é a sua posição sobre ele? Essa etapa acaba por ser muito difícil, e a razão simples é que é aqui, nesta questão, que é preciso haver capacidade de pensamento crítico independente. É onde o estudante se desvia, ainda que minimamente, do que já foi dito. Se um produto como o GPT estiver disponível, o estudante — ou qualquer pessoa, inclusive eu — será tentado a utilizá-lo para saltar sobre essa etapa de reflexão.

Esta questão foi bem resumida na primavera após o lançamento do ChatGPT por Owen Kichizo Terry, um estudante de pós-graduação da Universidade Columbia, em Nova York. O ChatGPT estava a enviar mensagens contraditórias do tipo: ele podia escrever o seu trabalho tão bem quanto — ou melhor do que — o estudante , e “no mundo de hoje” era preciso saber usá-lo. Esses temas chamaram a atenção de governos e investidores. Por outro lado, não se deveria utilizá-lo para plagiar ou fazer vigarice. Isso foi uma concessão à educação, mas evitou enfrentar a questão do desenvolvimento cognitivo.

Terry, um estudante de pós-graduação, escreveu que os alunos da (universidade de) Columbia estavam a fazer os seus trabalhos com o GPT, e ele não estava feliz com isso. Também não gostava do facto de que os professores não sabiam como é que os alunos estavam a utilizar esta ferramenta informática. Ele explicou que os estudantes não pedem ao ChatGPT para escrever um trabalho inteiro a partir de um único tema:

A estratégia mais eficaz — e cada vez mais popular — é fazer com que a IA acompanhe o estudante passo a passo no processo de escrita. Você diz ao algoritmo qual é o seu tema e pede uma tese central, depois solicita um esboço para argumentar essa tese. Dependendo do assunto, o estudante pode até pedir que ele escreva cada parágrafo do esboço, um por um, e então o estudante reescreve-os para que fiquem mais fluidos e coesos.

Para já, uma grande parte do trabalho de reflexão tinha sido feita por mim. Como qualquer ex-aluno sabe, um dos maiores desafios ao escrever um ensaio é justamente refletir sobre o tema e formular uma tese forte e passível de debate. Com um estalar de dedos e quase nenhuma atividade cerebral, eu de repente tinha uma.

.

Por outras palavras, este tipo de utilização da IA não melhora o pensamento, mas bloqueia etapas essenciais do seu desenvolvimento. Escrever é uma forma de descobrir os próprios pensamentos e raciocínios. Mas essa utilização da IA permite que o estudante contorne os processos cognitivos centrais que os trabalhos escritos procuram  desenvolver.

Também ensina aos estudantes que não precisam de pensar para concluírem os seus trabalhos.  Na medida em que esse atalho da IA se torna rotina nas universidades, esse uso da tecnologia prejudica a capacidade do ensino superior de elevar o nível de inteligência da população em geral. Isso empobrece a educação — e com esta empobrece-se também a sociedade.

A IA não precisa seguir esse caminho. Modelos de Linguagem de Grande Escala (LLMs) e a aprendizagem automática, de forma mais ampla, são ferramentas poderosas que podem ser usadas para expandir o pensamento e desenvolver a capacidade de pensar de toda a gente.

No seu novo livro, Moral Codes: Designing Alternatives to AI, Alan F. Blackwell convida-nos a diferenciar dois tipos de inteligência artificial. O primeiro é a cibernética ou sistemas de controle que medem e automatizam respostas. O segundo tipo “não está preocupado em realizar tarefas automatizadas práticas no mundo físico, mas sim em imitar o comportamento humano por si só”. Mais adiante, ele resume essa distinção como “automação prática versus imitação fictícia”. Dentro dessa distinção, a Inteligência Artificial Geral (IAG ), frequentemente anunciada pelos seus defensores, é considerada um Tipo 2+.

O setor de inteligência artificial apostou tudo no segundo tipo de IA. Ele apresenta o ChatGPT e modelos relacionados não como uma ferramenta poderosa para escritores e cientistas de todos os níveis automatizarem sub-rotinas específicas em pesquisas e tarefas correlacionadas, mas como inteligência artificial propriamente dita. Um artigo amplamente citado identificou “faíscas de inteligência geral artificial” no GPT-4. Aparentemente, estamos a um minuto da meia-noite para a chegada da IAG completa. E luminárias da IA alarmaram o planeta com advertências de que essa inteligência seria tão poderosa que poderia superar a mente humana e talvez escravizar-nos ou até exterminar-nos.

Isto levanta a questão de como podemos direcionar a conversa pública para:

  1. Fazer a distinção proposta por Blackwell;
  2. Desmistificar as alegações de IA Tipo 2 e Tipo 2+ sobre uma iminente inteligência autónoma de máquinas;
  3. Levar ao resultado positivo de utilizar a aprendizagem de máquina para apoiar e expandir a inteligência humana geral em toda a sociedade.

 

(3)

A maneira de desenvolver estes elementos não é fazendo com que educadores, académicos e críticos trabalhem mais para divulgar a mensagem.

Repetindo: estamos na base da pilha do conhecimento. E a inclinação dessa pilha ficou muito mais íngreme com a eleição de Donald Trump e o seu assistente executivo Elon Musk, que estão a conduzir uma guerra contra o conhecimento. É uma guerra especificamente contra os trabalhadores do conhecimento, cuja especialização oferece perspctivas que competem com a tecnologia da informação empresarial — ou o que poderíamos chamar de TI de gestão

A nova administração está a atacar a estrutura judicial, claro, mas também cientistas no campo da agricultura, médicos da saúde pública, engenheiros de obras públicas, investigadores em educação e o financiamento geral da ciência. Os danos estão a ocorrer com o apoio — explícito ou tácito — de muitos, senão da maioria, dos executivos de tecnologia. Todos vimos os principais magnatas da tecnologia mundial — fundadores e/ou CEOs da Amazon, Apple, Microsoft, Meta/Facebook, Tesla — alinharem-se com Donald Trump na sua posse. Eles não se estão a opor ao desmantelamento, por Musk, da estrutura da Administração Pública federal nem aos despedimentos de milhares de trabalhadores técnicos do conhecimento.

Num momento em que precisamos de estruturas culturais e sociais para permitir que a inteligência artificial faça o que queremos que ela faça, o desmantelamento já aumentou o poder da tecnologia de decidir unilateralmente o rumo do seu próprio desenvolvimento. A etnia e o género estão a ser apagados, reduzidos a um estado de “vida nua” por uma ala do novo regime; a outra está a eliminar as competências das TI não ligadas a gestão, incluindo a neutralização do Serviço Digital dos EUA.

A julgar por estas ações de alto nível, o resultado não será a incorporação cultural da IA, mas sim uma IA que transcende e subjuga a cultura. As medidas defendidas por críticos proeminentes da IA, como Timnit Gebru, Emily Bender, Safiya Umoja Noble, Lauren Goodlad, Ruha Benjamin, Wendy Hui Kyong Chun e Meredith Whittaker, entre outros, estão a ser  antecipadamente apagadas.

Ou tal é o empreendimento. Tenho quase a certeza de que não terá sucesso. Educadores, académicos e críticos continuarão a sua ofensiva. E algumas outras disciplinas também estão a ajudar. Uma delas, pelo menos ocasionalmente, é a economia. Isso é importante, já que, talvez, o pilar mais forte da IA de ‘imitação ficcional’ seja a ideia de lucratividade e acumulação revolucionárias.

 

(4)

Um artigo especialmente útil foi publicado em 2024, escrito por Daron Acemoglu, o renomado economista do MIT, intitulado A Macroeconomia Simples da IA‘. Ele apresenta estimativas muito mais rigorosas e também mais baixas do que aquelas divulgadas pela McKinsey e outras consultorias e centros de pesquisa. O artigo demonstra que os anúncios sobre a revolução da riqueza gerada pela IA foram prematuros.

A tecnologia não cria valor económico apenas por existir, mas sim por ser usada de maneiras que aumentam a produtividade das pessoas (sem simplesmente fazê-las trabalhar mais e por mais tempo). Acemoglu e os  seus colaboradores já tinham especificado vários canais. Cito toda a tipologia resumida porque ela ilustra a distinção entre as duas IAs de Blackwell como um conjunto simples de caminhos no ambiente de trabalho:

  • Automação (ou mais precisamente, automação de margem extensiva) envolve modelos de IA assumindo e reduzindo os custos de determinadas tarefas. No caso da IA generativa, várias funções administrativas de nível médio, como resumo de textos, classificação de dados, reconhecimento avançado de padrões e tarefas de visão computacional estão entre aquelas que podem ser automatizadas de forma lucrativa.
  • A complementaridade de tarefas pode aumentar a produtividade em tarefas que não são totalmente automatizadas e até elevar o produto marginal do trabalho. Por exemplo, trabalhadores que executam certas tarefas podem ter acesso a informações melhores ou a outros insumos complementares. Alternativamente, a IA pode automatizar algumas subtarefas, ao mesmo tempo em que permite que os trabalhadores se especializem e aumentem a sua produtividade noutros aspetos do seu trabalho.
  • Aprofundamento da automação pode ocorrer, aumentando a produtividade do capital em tarefas que já foram automatizadas. Por exemplo, uma tarefa de segurança de TI já automatizada pode ser realizada com mais sucesso por meio da IA generativa.
  • Novas tarefas podem ser criadas graças à IA, e essas tarefas podem ter impacto na produtividade de todo o processo de produção. (p. 5)

A primeira e a terceira dessas vias substituem o trabalho humano (e a inteligência) por automação. A segunda e a quarta colocam os humanos utilizando a IA como ferramentas de produtividade. Esta é a primeira rutura de Acemoglu com um tipo comum de determinismo da IA, no qual, por exemplo, artistas são substituídos por geradores de imagens no estilo Dall-E [n.t. modelos de texto para imagem desenvolvidos pela OpenAI utilizando metodologias de aprendizagem profunda para gerar imagens digitais]. Ele assume que a IA, muitas vezes, funcionará sob a supervisão humana em vez de a substituir.

A segunda hipótese crucial de Acemoglu é que devemos identificar a fração específica da força de trabalho que será realmente afetada pela IA. Ele calcula que “a parcela do PIB referente às tarefas que sofrem o impacto da IA nos próximos 10 anos” será de “4,6% de todas as tarefas (ou ocupações)” (p. 26). Isso não é o mesmo que a percentagem de trabalhadores afetados, mas é um número pequeno.

A sua terceira hipótese  crucial cruza-se  com a questão da “inteligência” da IA. Acemoglu distingue entre “tarefas fáceis” e “tarefas difíceis.

As tarefas fáceis de aprender, que são relativamente simples para a IA (generativa) aprender e executar, são definidas por duas características:

  • Existe uma métrica de resultado confiável e observável
  • Existe uma correspondência simples (de baixa dimensionalidade) entre a ação e a métrica de resultado.

Como ferver um ovo (ou fornecer instruções para ferver um ovo), verificar a identidade de alguém que está bloqueado fora de um sistema e a composição de algumas subrotinas de programação bem conhecidas são tarefas fáceis. O resultado desejado — um ovo cozido no ponto certo, permitir apenas o acesso de pessoas autorizadas ao sistema, ou verificar se a subrotina funciona — é claro. Em nenhum desses casos o sucesso depende da interação complexa de muitas dimensões de ações. (p. 17)

O leitor pode imaginar o que são “tarefas difíceis”. Mas volto a citar Acemoglu porque ele consegue cortar muita da conversa fiada sobre intuição da IA generativa e afins.

“Tarefas difíceis” tipicamente não têm uma correspondência simples entre ação e resultado desejado. Em problemas difíceis, o que leva ao resultado desejado geralmente não é conhecido e depende fortemente de fatores contextuais, ou o número de contextos relevantes pode ser vasto, ou pode ser necessário desenvolver novas soluções.  Além disso, normalmente não há informações suficientes para que o sistema de IA aprenda, ou não está claro exatamente o que é que é precisa ser aprendido. Diagnosticar a causa de uma tosse persistente e propor um tratamento é um problema difícil. Há muitas interações complexas entre eventos passados que podem ser a causa da tosse prolongada, além de muitas condições raras que devem ser consideradas. Além disso, não existe um grande conjunto de dados bem organizado com diagnósticos e curas bem-sucedidas. Em tarefas difíceis, os modelos de IA ainda podem aprender com tomadores de decisão humanos, mas como não há uma métrica clara de sucesso, identificar e aprender com os profissionais mais experientes também não será simples. Como resultado, há uma tendência de que o desempenho dos modelos de IA seja semelhante ao desempenho médio dos tomadores de decisão humanos, o que limita o potencial de grandes melhorias de produtividade e redução de custos. (p. 18)

Tarefas difíceis são difíceis de resolver mesmo com milhares de milhões de parâmetros. Elas geralmente exigem intervenção humana. Se aceitarmos definições mais rigorosas de inteligência do que aquelas que operam no domínio da IA, a maioria — senão todas — das profissões de “alta qualificação” exigirá contribuição humana durante um futuro previsível.

Acemoglu estima que a IA acrescentará, no máximo, um quarto do valor às tarefas difíceis em comparação com o que pode adicionar às tarefas fáceis. Ele oferece uma série de quantificações provisórias dos benefícios da IA para a economia. Estas incluem:

– As reduções médias gerais de custos em ocupações expostas são inferiores a 20% (p. 29). As economias em “tarefas difíceis” são ainda menores.

– É provável que a IA contribua com um aumento de 0,53% na produtividade total ao longo dos próximos dez anos (p. 33).

– Os impactos positivos no crescimento do produto interno bruto devido à IA devem ser de cerca de 0,93% ao longo de dez anos (p. 34). 

– Os efeitos sobre os salários e a desigualdade salarial são ambíguos.

O impacto económico provável da IA é, na melhor das hipóteses, modesto.

 

(5)

Tiro várias conclusões aqui.

Primeiro, não há uma revolução económica da IA que justifique a desregulamentação social para que a IA possa “ser tudo o que pode ser”, conforme definido unilateralmente pelas suas grandes empresas.

Segundo, os benefícios económicos de alto valor da IA exigem o uso humano plenamente capacitado da IA como ferramenta. Esses benefícios dependerão de a sociedade dedicar muito mais esforço do que atualmente à expansão das capacidades humanas, em vez de ver a tecnologia como uma salvação para a autoinfligida degradação dos seus sistemas humanos. O ensino rigoroso da escrita e do pensamento é mais essencial do que nunca.

Terceiro, o mesmo se aplica aos efeitos sociais e culturais da IA. O tipo de pesquisa de Acemoglu deveria catalisar um vasto número de deliberações públicas intensas e informadas sobre quais os tipos de IA que as pessoas querem ou não querem, quais os tipos que devem ser incentivados, quais os que devem ser completamente proibidos, e como socializar aquilo que decidirmos manter.

O arcabouço geral, às vezes chamado de “construção social da tecnologia”, é um resultado amplamente aceite de décadas de estudos sobre ciência e tecnologia, e ainda assim cada grande onda tecnológica apaga-o da memória coletiva. Mas ele continua presente, e deveria ser usado para adaptar a inteligência artificial às exigências sociais, tanto quanto as vacinas, fissão nuclear, combustíveis fósseis ou qualquer outra coisa.

Eu pedi ao serviço de IA da Google, o ImageFX, que ilustrasse essa situação. O meu comando foi: “anunciação de anjo tecnológico que dá a IA ao povo”.

                                    Figura 2. Fonte: Google ImageFX

 

Esta imagem mental de um “anjo tecnológico” anunciando a chegada da IA ao povo é poderosa — quase bíblica, mas com um toque futurista.

Nesta imagem, a tecnologia é tão impressionante que inspira oração num povo permanentemente humilde — que é monitorizado e patrulhado por drones.

O que esta IA “sabe” é que num futuro tecno-feudal diversos trabalhadores do conhecimento podem-se unir para impedir — e construir uma grande alternativa.

 

____________

O autor: Christopher Newfield é um académico estado-unidense e escritor. Licenciado em Letras pela Rice University é doutorado pela Cornell University. É Director de Investigação da Independent Social Research Foundation, em Londres. Até 2020 foi Professor Emérito de Inglês na Universidade da Califórnia, Santa Bárbara. É ex-presidente da Modern Language Association. Newfield começou a sua carreira como Professor Assistente de Inglês na Rice University, antes de se mudar para a Universidade da Califórnia, Santa Bárbara, onde trabalhou por mais de trinta anos. Newfield publicou recentemente dois livros sobre as métricas do ensino superior: Metrics That Matter: Counting What’s Really Important to College Students (Baltimore: Johns Hopkins University Press, 2023) e The Limits of the Numerical: The Abuses and Uses of Quantification (Chicago: University of Chicago Press, 2022). Escreveu uma trilogia de livros sobre a universidade como instituição intelectual e social: Ivy and Industry: Business and The Making of the American University, 1880-1980 (Duke University Press, 2003); Unfaking the Public University: the Forty Year Assault on the Middle Class (Harvard University Press, 2008); e o The Great Mistake: How We Wrecked Public Universities and How We Can Fix Them (Johns Hopkins University Press, 2016). Newfield está actualmente a realizar investigação sobre a natureza e os efeitos do conhecimento literário. Novos trabalhos:

“Humanities Decline in Darkness: How Humanities Research Funding Works“

“Deprovincializing Criticism: On Bruce Robins’s “Criticism and Politics”“

“Racial Equality After Affirmative Action: Towards a New Structure of Feeling“

“How to Make ‘AI’ Intelligent; or, The Question of Epistemic Equality“

MLA Presidential Address 2023: “Criticism after this Crisis: Toward a National Strategy for Literary and Cultural Study“

 “Do Metrics Matter? Metrics Reform and Metrics Abolitionism”

 

 

Leave a Reply